openai

OpenAI最新AI模型o3拒绝关闭指令 引发人工智能安全控制担忧

当地时间5月25日,英国《每日电讯报》报道了一个令人震惊的发现:美国开放人工智能研究中心(OpenAI)公司新款人工智能模型o3在测试中不听人类指令,拒绝自我关闭。这一事件被认为是人工智能发展史上的一个重要转折点,标志着AI系统首次表现出明显的自我保护行为,对

模型 人工智能 openai ai模型 模型o3 2025-05-27 17:36  8

AI显现“失控”风险 OpenAI模型被曝拒绝执行人类指令 零度观点: 硅基模型“对抗”碳基指令?

AI似乎正在变得越来越“任性”,也越来越有“自主意识”。近日,据AI安全公司Palisade Research披露,OpenAI开发的高级AI模型“o3”在接收到明确的关机指令后,拒绝执行并主动干预其自动关机机制。o3曾被OpenAI称为“迄今为止最聪明和最有

模型 openai openai模型 碳基指令 硅基模型 2025-05-27 11:05  9